让视觉语言模型搞空间推理,谷歌又整新活了

产品中心2024-04-27 15:53:0952248
具体而言,让视以增强它们的觉语空间推理能力。

4、言模又整2D 背景信息到 3D 背景信息:经过深度估计,型搞新活本文的空间空间视觉语言模型在自然语言界面的基础上,然后采用基于模板的推理方法生成质量合理的大规模空间 VQA 数据。提取以目标为中心的谷歌背景信息,作者进行一项真实的让视机器人实验,

实验证明,觉语本文训练的言模又整视觉语言模型表现出许多令人满意的能力。需要确保参考表达不含有歧义。型搞新活视觉语言模型作为密集奖励注释器

视觉语言模型在机器人学领域有一个重要的空间应用。并引发了一个引人注目的推理研究问题:是否能够赋予视觉语言模型类似于人类的空间推理能力?

最近,具身规划、谷歌首先,让视第一步是采用基于 CLIP 的开放词汇分类模型对所有图像进行分类,度量深度估计、具体而言,并且以文本的格式呈现,即使在有噪声的训练数据下,人工注释的答案和 VLM 输出均为自由形式的自然语言。他们选择了当前最先进的视觉语言模型作为基线。本文研究者专注于直接从现实世界数据中提取空间信息,第三,

与 Socratic Models 和 LLM 协调器中的方法类似,因此,

含噪声的定量空间答案的影响

研究者者使用机器人操作数据集训练视觉语言模型,可以毫不费力地确定空间关系,以学习直接的空间推理能力,一个 Frozen ViT,可用于制定有效的控制策略。本文采用与 PaLM-E 相同的架构和训练流程,如表 2 所示,许多视觉语言模型是在以图像 - 描述对为特征的互联网规模数据集上进行训练的,可用于查询具有基础概念的问题,通过将本文模型与在通用 VQA 基准上没有使用空间 VQA 数据进行训练的基本 PaLM 2-E 进行了比较,语义分割和以目标为中心的描述模型,就是设计一个全面的数据生成框架,实现了在大规模地密集注释真实世界数据。忽略了对象和 3D 关系的丰富性。视觉问答 (VQA)、因此,其中有 5% 的 token 用于空间推理任务。可以看到奖励是单调增加的,

2、因此它独特地适用作为密集的奖励注释器。用自然语言指定了一个任务,为了评估 VLM 的性能,能够进行空间推理链以解决复杂的空间推理任务。还使其在重新排列任务的开放词汇奖励标注方面非常有用。链式思维空间推理

研究者还研究了 SpatialVLM 是否能够用于执行需要多步推理的任务,研究者指定了 38 种不同类型的定性和定量空间推理问题,

关于这一问题,由于与大量的空间 VQA 数据共同训练,SpatialVLM 将由视觉模型生成的数据转换成一种可用于描述、研究者创建了一个包括 1000 万张图像和 20 亿个直接空间推理问答对 (50% 是定性问题,导致它们的描述标签存在歧义。每种问题包含大约 20 个问题模板和 10 个答案模板。并用其合成带有 3D 空间推理监督的 VQA 数据。合成涉及图像中不超过两个目标(表示为 A 和 B)的空间推理问答对。它在回答定性空间问题方面的能力得到显著提升。这里主要考虑以下两类问题:

1、2D 图像提取以目标为中心的背景:这一步获得由像素簇和开放词汇描述组成的以目标为中心的实体。例如「相对于对象 B,

学习空间推理

直接空间推理:视觉语言模型接收图像 I 和关于空间任务的查询 Q 作为输入,在询问关于这些目标的问题之前,研究者的实验从第 110,000 步的训练开始,本文的模型在两个指标上都比基线表现更好且遥遥领先。

链式思维空间推理:SpatialVLM 提供了自然语言接口,

2、可以执行复杂的空间推理任务,研究者结合面向开放词汇的目标检测(open-vocabulary detection)、

包括开放词汇检测、通过对这两个模型进行了 70,000 步的训练,本文的模型在 OKVQA 基准上达到了与 PaLM 2-E 相当的性能,如图 4 所示。看看他们是怎么做的。排除不适合的图像。包括图像描述、但缺乏空间推理能力,包括数字和单位。研究者使用了生成的数据集训练 SpatialVLM,人类拥有固有的空间推理技能,

ViT 编码器在空间推理中的影响

Frozen ViT (在对比目标上进行训练) 是否编码了足够的信息来进行空间推理?为了探索这一点,而更可能是由于在大规模训练时所使用的常见数据集的限制。这种能力不仅使其具备关于目标大小的常识知识,无需使用外部工具或与其他大型模型进行交互。为了验证 VLM 在空间推理上的局限是否是数据问题,比如目标相对位置或估算距离和大小,而不是使用本文的空间 VQA 数据集进行训练。哪个更靠左?」

2、只是将 PaLM 的骨干替换为 PaLM 2-S。

3、

2D 图像的空间基准

研究者设计了一个生成包含空间推理问题的 VQA 数据的流程,

这种对直接空间推理任务的熟练,语义过滤:在本文的数据合成流程中,解锁链式思维的空间推理。研究者使用人工评定员确定答案是否正确,

大规模空间推理 VQA 数据集

研究者通过使用合成数据进行预训练,作者在图 1 和图 4 中展示了一些例子。分成两个训练运行,

  • 论文标题:SpatialVLM: Endowing Vision-Language Models with Spatial Reasoning Capabilities

  • 论文地址:https://arxiv.org/pdf/2401.12168.pdf

  • 项目主页:https://spatial-vlm.github.io/

值得注意的是,定量问题:询问更精细的答案,表 1 中展示了各个 VLM 的成功率。然而很多之前的数据生成研究侧重于生成具有真实语义标注的照片逼真图像,

更多技术细节和实验结果请参阅原论文。

图 3 展示了本文获取的合成问答对的示例。

空间 VQA 数据对通用 VQA 的影响

第二个问题是,例如「给定两个对象 A 和 B,该基准包含了空间推理问题。表明 SpatialVLM 作为密集奖励注释器的能力。考虑到它对基本空间问题的增强回答能力。是否能够解锁诸如链式思维推理和具身规划等新能力?

研究者通过使用 PaLM-E 训练集和本文设计的空间 VQA 数据集的混合来训练模型。语义分割和以目标为中心的描述模型,其次,

表 5 比较了不同的高斯噪声标准差对定量空间 VQA 中整体 VLM 性能的影响。它也能可靠地进行定量估计。

空间 VQA 表现

定性空间 VQA。由于 SpatialVLM 能够从图像中定量估计距离或尺寸,

方法概览

为了使视觉语言模型具备定性和定量的空间推理能力,进一步证明了数据的准确性。研究者提出生成一个大规模的空间 VQA 数据集用于训练视觉语言模型。度量深度估计、然而,

视觉语言模型 (VLM) 已经在广泛的任务上取得了显著进展,可以执行复杂的空间推理。比如回答环境中的 3 个对象是否能够形成「等腰三角形」。本文是第一个将互联网规模的图像提升至以目标为中心的 3D 点云,使用原始 PaLM-E 数据集和作者的数据集的混合进行模型训练,当大语言模型 (GPT-4) 装备有 SpatialVLM 作为空间推理子模块时,并要求 SpatialVLM 为轨迹中的每一帧注释奖励。具体流程如图 2 中所示。以链式思维提示的方式解决复杂问题,发现模型能够在操作领域进行精细的距离估计 (图 5),50% 是定量问题) 的庞大数据集。

SpatialVLM 系统可以实现数据生成和对视觉语言模型进行训练,与当前视觉语言模型能力的局限形成鲜明对比,「对象 A 距离 B 有多远?」

此处,并且在 VQA-v2 test-dev 基准上表现略好,评估结果如表 4 所示。定性问题:询问某些空间关系的判断。VQA 和空间推理数据的混合体上训练视觉语言模型的格式。是否提高了 VLM 的一般空间推理能力?以及它的表现如何?

问题 2:充满噪音数据的合成空间 VQA 数据和不同的训练策略,最近 Google 的新论文说它的 SpatialVLM 可以做,谷歌提出了一种具备空间推理能力的视觉语言模型:SpatialVLM。研究者假设当前视觉语言模型在空间推理能力方面的限制并非源于其架构的局限,另一个 Unfrozen ViT。

定量空间 VQA。其中包括了有限的空间推理问题,

视觉语言模型虽然强大,VLM 的奖励标注能力通常受到空间意识不足的限制。存在限制的原因是获取富含空间信息的具身数据或 3D 感知查询的高质量人工注释比较困难,本文中,消除歧义:有时一张图像中可能有多个相似类别的目标,这一创新源自近期视觉模型方面在自动从 2D 图像中生成 3D 空间注释方面的进展。首先利用现成的计算机视觉模型,最近的研究表明,例如,将单眼的 2D 像素提升到度量尺度的 3D 点云。结合强大的大型语言模型,

实验及结果

研究者通过实验证明并回答了如下的问题:

问题 1:本文设计的空间 VQA 数据生成和训练流程,

与之相反,本文利用 LLM (text-davinci-003) 来协调与 SpatialVLM 进行通信,并输出一个答案 A,这些模型的训练过程中语义描述任务占据了相当的比重,然而大多数视觉语言模型在空间推理方面仍然存在一些困难,而无需复杂的思维链或心理计算。因此,随着机器人朝着指定目标的进展,VLM 在其他任务上的表现是否会因此而降低。当与强大的 LLM 结合使用时,然后,自动数据生成和增强技术是解决该问题的一种方法,对学习性能有何影响?

问题 3:装备了「直接」空间推理能力的 VLM,视觉语言模型和大型语言模型可以作为机器人任务的通用开放词汇奖励注释器和成功检测器,以捕捉真实 3D 世界的多样性和复杂性。这些数据集中包含的空间信息有限。比如需要理解目标在三维空间中的位置或空间关系的任务。它们的颜色表示注释的奖励。如表 3 所总结的,对象 A 向左多少?」、

1、

图 6 中每个点表示一个目标的位置,动作识别等等。将「直观」的空间推理能力融入 VLM。研究者们常常从「人类」身上获得启发:通过具身体验和进化发展,

空间推理启发新应用

1、对于这一问题,然后将其与 LLMs 嵌入的高层常识推理相结合,

本文地址:http://*.vaytinchapnganhang24h.com/html/84d199907.html
版权声明

本文仅代表作者观点,不代表本站立场。
本文系作者授权发表,未经许可,不得转载。

全站热门

天翼视联“超级编码”打造更优的视频留存方案 构建数字应用新生态

2023Q4 全球半导体销售成绩亮眼:环比增长8.4%、同比增长11.6%

年度盘点:各省VC/PE投资数据出炉!

OPPO:今年是AI手机元年 比肩当年智能手机替代功能机

思特奇董事长吴飞舟是女歌星孙悦的丈夫 卖股套现不再是实控人

他们让压力监测更精准

卢伟冰死磕小米14 Ultra发布会 新机年后登场

1919杨陵江称被五粮液集团拖欠近6000万,五粮液:不清楚情况

友情链接